AI资讯新闻榜单内容搜索-LLaMA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLaMA
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
10327 点击    2024-02-04 13:59
无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

在 AI 赛道中,与动辄上千亿参数的模型相比,最近,小模型开始受到大家的青睐。比如法国 AI 初创公司发布的 Mistral-7B 模型,其在每个基准测试中,都优于 Llama 2 13B,并且在代码、数学和推理方面也优于 LLaMA 1 34B。

来自主题: AI技术研报
10066 点击    2024-02-02 11:50
Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

随着大型语言模型(LLM)技术日渐成熟,提示工程(Prompt Engineering)变得越来越重要。一些研究机构发布了 LLM 提示工程指南,包括微软、OpenAI 等等。

来自主题: AI技术研报
6705 点击    2024-01-29 12:36
Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局

Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局

Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局

AI训AI必将成为一大趋势。Meta和NYU团队提出让大模型「自我奖励」的方法,让Llama2一举击败GPT-4 0613、Claude 2、Gemini Pro领先模型。

来自主题: AI技术研报
8217 点击    2024-01-22 10:34
英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大

英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大

英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大

昨天,Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,从而在 Llama 2 70B 的迭代微调后超越了 GPT-4。今天,英伟达的全新对话 QA 模型「ChatQA-70B」在不使用任何 GPT 模型数据的情况下,在 10 个对话 QA 数据集上的平均得分略胜于 GPT-4。

来自主题: AI资讯
10117 点击    2024-01-21 14:27
年底手握60万块GPU!扎克伯格宣战AGI,血拼谷歌OpenAI

年底手握60万块GPU!扎克伯格宣战AGI,血拼谷歌OpenAI

年底手握60万块GPU!扎克伯格宣战AGI,血拼谷歌OpenAI

智东西1月19日消息,今日,外媒The Verge刊登了Meta的首席执行官马克·扎克伯格(Mark Zuckerberg)的一场最新专访,小扎首次明确宣布投身通用人工智能(AGI)并谈及具体规划。

来自主题: AI资讯
5288 点击    2024-01-20 15:22
小扎砸数百亿美元猛攻开源AGI!狂掷60万块H100,爆50倍GPT-4算力

小扎砸数百亿美元猛攻开源AGI!狂掷60万块H100,爆50倍GPT-4算力

小扎砸数百亿美元猛攻开源AGI!狂掷60万块H100,爆50倍GPT-4算力

今天,小扎正式宣战「开源AGI」!下一代大模型Llama 3正在训练,年底将拥有35万块H100,届时算力总和达60万块H100。为了追赶OpenAI,成立十年的FAIR团队纳入GenAI,全力奔赴AGI。

来自主题: AI技术研报
6813 点击    2024-01-19 14:16
开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

从 Llama、Llama 2 到 Mixtral 8x7B,开源模型的性能记录一直在被刷新。由于 Mistral 8x7B 在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5,因此它也被认为是一种「非常接近 GPT-4」的开源选项。

来自主题: AI技术研报
7077 点击    2024-01-16 14:18